FTC 推出AI声音克隆欺诈检测挑战赛,最高奖励2.5万美元
编译:代码卫士
美国联邦贸易委员会 (FTC) 推出“声音克隆挑战”公开竞赛活动,参加人员如能提出保护客户免受AI语音克隆欺诈活动的措施,则可获得最高2.5万美元的赏金。
这项挑战活动在2023年11月中旬发布。随着人工智能改进了文本转语音的能力,对语音克隆技术的滥用也更加深入,这项活动旨在找到对抗这种滥用的方法。
AI 可分析目标的音频,提取唯一的语音特征,之后使用这一训练数据生成新的语音,从而克隆别人的声音。尽管声音克隆具有合法用途,如个性化的文本转语音服务和对残障人士的辅助性工具,但威胁者也可用于欺诈性活动如声音钓鱼、社工以及其它基于声音的欺诈活动。
通过模拟与目标熟悉的人员的声音如家庭成员或名人的声音,恶意人员能够轻松诱骗别人相信电话或语音信息中的言论。FTC 指出,“声音克隆技术存在重大风险:家庭和小企业可能遭欺诈性勒索攻击;创意性专业人员如声音艺术家的声音可能被剽窃从而导致生活可能受到威胁,公众可能会遭到欺骗。”
FTC 希望声音克隆挑战活动能够在生成式AI的帮助下,找到识别声音克隆情况的解决方案。FTC认为这是“一项探索性挑战”,可能会为提供声音缓解方向。获奖的提案将得到2.5万美元的赏金,第二名可获得4000美元的赏金。另外还会有三个荣誉提名,每人可获得2000美元的赏金。
2024年1月2日,FTC开始接收提案,接收时间将持续10天,在美国东部时间1月12日下午8点截止。报告必须包括一页长的提案概览以及最多10页的详细说明。参与人员也可提交一份视频说明提案的运作方式。FTC将基于实际的可行性、对企业可信度和客户负担的影响以及技术快速提升的弹性进行评判。
FTC表示,如这项挑战未能形成任何有效的防御提案,则将此举视作对政策制定者的一次提前预警,并将强调制定更加严格的AI技术使用法规的必要性。
https://www.bleepingcomputer.com/news/security/ftc-offers-25-000-prize-for-detecting-ai-enabled-voice-cloning/
题图:Pexels License
本文由奇安信编译,不代表奇安信观点。转载请注明“转自奇安信代码卫士 https://codesafe.qianxin.com”。
奇安信代码卫士 (codesafe)
国内首个专注于软件开发安全的产品线。